docs/ 說明文件與報告
videos/ 輸入視頻來源
app.py 主執行程序
tracker.py 物件追蹤邏輯
yolov8n.pt 預訓練模型
支援多路並行處理,每路維持 ~5.3 FPS,兼顧效能與準確率。
短期平均 / 長期平均雙指標判斷「上升 / 下降 / 穩定」趨勢,輸出中文標籤於介面。
執行統一安裝指令解決所有依賴:
pip install opencv-python ultralytics matplotlib numpy
精準人員辨識
YOLOv8 於閱兵視頻及密集人群中有效辨識個別目標,Bounding Box 穩定追蹤,ID 持久化維持跨幀一致性。
即時趨勢折線圖
Matplotlib 繪製 4 路並行折線圖,清晰呈現各視頻來源人流密度差異,短期/長期平均雙指標動態更新。
多路並行效能
4 路同步處理各維持 ~5.3 FPS,系統資源佔用合理,支援本地 MP4 文件與 USB 攝影機混合輸入。
完整 Dashboard 介面
2×2 視頻網格 + 統計面板 + 趨勢圖一體化呈現,中文標籤、鍵盤快捷鍵 (Q 退出) 及 Webcam Utility 整合支援。
人流辨識系統的實作與啟發
在本週的課程中,我們深入探討了 AI 視覺辨識在現實場景中的應用,特別是針對「多路人流監控系統」的開發實作。作為一名資訊工程系的國際學生,這不僅是一次技術上的挑戰,更是一場關於數據、演算法與使用者介面設計的深刻思考。
實驗過程中,最令我印象深刻的是如何優化 YOLOv8 模型以達到多路並行處理的效能平衡。雖然在初期遇到過環境配置與模組缺失(如 OpenCV 報錯)等問題,但在老師的指導下,我學會了如何透過 Python 環境管理來解決依賴衝突。看著四路影像(Video A/B/C 與 Webcam)能夠穩定地以 ~5.3 FPS 運行,並透過 Bounding Box 精準鎖定目標,那種將程式碼轉化為即時視覺反饋的成就感是非常巨大的。
此外,我也特別關注了數據可視化的部分。利用 Matplotlib 繪製即時折線圖,並加入短期與長期移動平均指標,能讓我們更客觀地判斷人群流動的趨勢。這讓我體會到,人工智慧不應僅僅是冰冷的偵測器,它更應該透過數據分析,為安全監控或資源調度提供具體的決策支持。
這次的實作經驗與我目前正在開發的「文件自動翻譯系統」Side Project 有著異曲同工之妙,皆是利用 AI 技術解決實際生活中的痛點。未來,我希望能繼續深化在電腦視覺領域的鑽研,提升系統的準確度與穩定性,並將所學應用於更廣泛的智慧化場景中。這堂課無疑為我的學術生涯與技術專案奠定了堅實的基礎。